類神經網路其實就是把人類想把人腦運作的方式在電腦上模擬出來的結果
我們知道大腦裡充滿了神經元,資訊藉由神經元傳遞,最後儲存在大腦的記憶區
所以最基本的單位就是一個神經元(單細胞腦袋)
撇開複雜的醫學構造,神經元簡單來說就兩個功能:接收跟輸出
1981年,多虧了兩位美國神經生物學家David Hubel和Torsten Wiesel測試在貓貓眼前放置一個會投射出光影的布幕
然後往大腦的視覺層電下去,看看改變光影的角度,微電流會如何在可憐的貓貓裡流竄
結果觀測出每個神經元有自己喜歡的光影角度,在那個角度神經元輸出的電流會最大
所以我們可以想像出神經元會執行的動作就是:
接收(x1,x2...xn)->y=f(x)->輸出(y)
得到最簡單的神經網路模型
他是一個擁有2個輸入(黃點)1個輸出(橘點)的模型
黃點稱為輸入層 橘點為輸出層
輸入層的每個點會乘上各自的權重 再總和到輸出層乘上激活函數(神經元的喜好)
激活函數有很多種,若將激活函數設定為 總和 > X 輸出1
階躍函式:
就可以使用他作為二分法的分類器
感知器像是個單一腦細胞,腦袋的構造可是多層且複雜的
把多個感知器像神經元一樣相互連接,疊成多層感知器
就出現了最早發明的簡單人工神經網路類型「前饋神經網路(Feedforward Neural Network)」
特徵:所有點皆有相連、訊號方向全部往輸出層、中間帶有隱藏層(綠點)
前饋神經網路克服了感知器不能對線性不可分數據進行識別的弱點
可以解決更為複雜的數據
如果這個模型還未經訓練,他就跟小嬰兒一樣,不會按照我們期望行動
要不斷餵資料給他,告訴他什麼是對的,讓他培養經驗,神經元就會不斷修正(調整每個輸入的權重)
訓練完畢後我們就會得到一個有特殊權重的神經網路
若餵新的資料給他,而他能夠返回我們期待的結果,就是訓練成功了
https://towardsdatascience.com/the-mostly-complete-chart-of-neural-networks-explained-3fb6f2367464
https://zh.wikipedia.org/wiki/%E6%84%9F%E7%9F%A5%E5%99%A8
https://zh.wikipedia.org/wiki/%E5%A4%9A%E5%B1%82%E6%84%9F%E7%9F%A5%E5%99%A8